Come il cervello elabora il linguaggio in tempo reale

 

 

DIANE RICHMOND

 

 

NOTE E NOTIZIE - Anno XXII – 15 marzo 2025.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: RECENSIONE]

 

Lo studio della neurofisiologia del linguaggio, dopo decenni in cui era rimasto ancorato al modello anatomo-clinico di Wernicke-Geschwind, integrato con nozioni emergenti da nuovi studi, ha definitivamente preso il largo sulla base dei modelli morfo-funzionali dedotti dagli studi di neuroimmagine e dalla elaborazione teorica computerizzata delle basi elettrofisiologiche dei processi percettivi (acustici e visivi) ed esecutivi della comunicazione verbale umana. Da quasi due decenni la riflessione teorica assume il riferimento implicito delle “reti del linguaggio” di Antonio Damasio, e non più l’ingenuo modello modale che aveva imperato in neuropsicologia fino a tempi recenti.

Nonostante questo importante salto qualitativo, rimangono ancora molte lacune di conoscenza e domande senza risposta, qualora si provi a definire in termini di meccanismi neurofunzionali le basi della comunicazione verbale nell’atto della sua produzione e ricezione, nelle circostanze della vita reale.

Ariel Goldstein e colleghi hanno sviluppato un modello computazionale unificato che connette fase acustica, fase esecutiva verbale e strutture linguistiche del livello della parola, per studiare la base neurale cerebrale delle conversazioni della vita quotidiana.

(Goldstein A. et al., A unified acoustic-to-speech-to-language embedding space captures the neural basis of natural language processing in everyday conversations. Nature Human Behavior – Epub ahead of print doi: 10.1038/s41562-025-02105-9, March 7, 2025).

La provenienza degli autori è la seguente: Department of Cognitive and Brain Sciences and Business School, Hebrew University, Jerusalem (Israele); Google Research, Mountain View, CA (USA); Department of Psychology and the Princeton Neuroscience Institute, Princeton University, Princeton, NJ (USA); Department of Cognitive Neuroscience, Faculty of Psychology and Neuroscience, Maastricht University, Maastricht (Paesi Bassi); Athinoula A. Martinos Center for Biomedical Imaging, Massachusetts General Hospital and Harvard Medical School, Boston, MA (USA); New York University School of Medicine, New York, NY (USA); School of Engineering and Applied Science, Harvard University, Boston, MA (USA).

Ariel Goldstein e colleghi hanno impiegato l’elettrocorticografia (ECoG) per registrare i segnali neurali, durante 100 ore di produzione e comprensione verbale, di partecipanti impegnati in conversazioni di vita reale a tema libero. I ricercatori hanno estratto, impiegando “Whisper”, un modello multimodale “speech-to-text”, un basso livello acustico, un medio livello di discorso e un livello di contextual embeddings words, ossia rappresentazioni di parole che considerano il contesto circostante, migliorando la comprensione semantica attraverso la resa di sfumature di significato e di rapporti non evidenti. I ricercatori hanno sviluppato modelli di codifica che mappano linearmente queste relazioni nell’attività cerebrale durante la produzione e la comprensione del discorso.

Fatto rilevante, è che il modello predice accuratamente l’attività neurale a ciascun livello della gerarchia di elaborazione cerebrale del linguaggio, durante ore di nuove conversazioni, ossia su contenuti non impiegati nel training del modello.

La gerarchia di elaborazione interna del modello è allineata con la gerarchia corticale per l’elaborazione della parola e della lingua, in cui le regioni sensoriali e motorie si allineano meglio con le relazioni del modello con le parole, mentre le aree del linguaggio di più alto livello sono meglio allineate con le relazioni del modello alla lingua. Il modello Whisper cattura la sequenza temporale della codifica “dalla lingua al discorso” prima dell’articolazione delle parole (produzione verbale), e la codifica “dal discorso alla lingua” dopo l’articolazione (comprensione verbale).

Gli apprendimenti specifici di questo modello superano i modelli simbolici nel catturare l’attività neurale a supporto della naturale abilità di parlare e del linguaggio. Questi risultati supportano un viraggio paradigmatico verso modelli computazionali unificati, che catturano l’intera gerarchia di elaborazione per la comprensione e la produzione del linguaggio in conversazioni reali.

 

L’autrice della nota ringrazia la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Diane Richmond

BM&L-15 marzo 2025

www.brainmindlife.org

 

 

 

 

________________________________________________________________________________

 

La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica e culturale non-profit.